Световни новини без цензура!
По-широкото използване на AI от богатите страни рискува да задълбочи неравенството, предупреждава Anthropic
Снимка: ft.com
Financial Times | 2026-01-15 | 14:12:32

По-широкото използване на AI от богатите страни рискува да задълбочи неравенството, предупреждава Anthropic

По-широкото приемане на AI в богатите страни увеличи риска технологията да задълбочи икономическите разлики и да разшири разликите в виталния стандарт, предизвести започващата AI компания Anthropic.

Нов разбор на това по какъв начин чатботът Claude на Anthropic се употребява от бизнеса и потребителите по света допуска, че по-богатите страни са по-големи има възможност да възприемат AI, като „ към момента няма доказателства, че страните с по-ниски приходи наваксват “.

„ Ако повишението на производителността ... . се материализира тук-там, които са внедрили ранно, можете да видите разминаване в стандарта на живот “, сподели Питър МакКрори, началник на стопанската система на Anthropic, пред FT.

Изследването прибавя към възходящ размер от данни от софтуерни компании показвайки световно разделяне в равнищата на приемане на AI, сочейки изгодите от продуктивността и работните приложения, които са съсредоточени в по-богатите развити страни.

Изследванията на Anthropic пресмятат, че AI може да добави 1-2 процентни пункта към годишния напредък на продуктивността на труда в Съединени американски щати през идващото десетилетие, с най-големи облаги в комплицираната, „ интензивна на познания “ работа.

Това също допуска, че към половината от работните места могат да ползват AI за най-малко една четвърт от дилемите, спрямо 36 % от работните места преди година.

Съединени американски щати, Индия, Япония, Обединеното кралство и Южна Корея употребяват Claude най-вече. Бразилия и страните на Балканите имат най-високи равнища на потребление за работни задания, като Бразилия се обрисува като център за законен AI. Индонезия също е водеща в приложенията за образование и курсова работа.

Държавите с по-ниски приходи демонстрират огромен дял на потребление на ИИ за обучение и по-малък брой работни задания. В страни с по-висок Брутният вътрешен продукт на глава от популацията, Claude е употребен доста по-често за работа или за персонална приложимост, сподели компанията.

Изследването допуска, че по-образованите консуматори получават по-големи изгоди за продуктивността от Claude, защото те могат да дадат на чатбота по-сложни подкани и да получат по-добри отговори.

„ Ценното преимущество на тази технология, в случай че бъде оставено единствено на пазарните сили, може да не докара до задоволително необятно приемане, “ Маккрори добави.

Anthropic посочи планове за AI просветеност, които създаде с държавното управление на Руанда, посредством които даде на някои приключили едногодишен достъп до Claude Pro, с цел да „ подкрепи прехода от просветителна приложимост към по-широк набор от приложения “.

„ Държавите се разграничават по способността си да заплащат за Claude и случаите на [образователна] приложимост може да са по-подходящи за гратис потребление на Claude, в сравнение с комплицираните случаи на приложимост в работните зони като софтуерно инженерство “, се споделя в отчета.

Изкуствен интелектКлод влиза в лабораторията: Anthropic залага доста на науките за живота

„ Потребителите в страните с по-високи приходи може да имат повече други запаси, като свободно време и непрестанен достъп до интернет, които разрешават случаи на несъществена персонална приложимост. “

Докладът проучва случайна извадка от 1 милион диалози от безвъзмездни и платени диалози на Claude.ai, потребителски данни и 1 милион преписи на корпоративни диалози през ноември. 

Подкрепя сходни констатации от Microsoft, които също разпознават разделяне в световното приемане на AI. Брад Смит, президент на огромната софтуерна компания, сподели пред FT, че „ в случай че не се оправим с възходящото разделяне на ИИ, това евентуално ще увековечи и разшири огромното икономическо разделяне сред севера и юга “.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!